Telegram Group & Telegram Channel
🤖 AlexNet: butun AI tarixini o'zgartirgan model

Avvalgi postlarimdan birida ResNet haqida gaplashgandik: bu neyron tarmoqlarni chuqurroq qilishga yordam beradigan usul edi. Bugun esa AI tarixida Computer Vision (CV) yo'nalishida revolyutsiya qilgan model haqida gaplashamiz, ya'ni AlexNet haqida.

Hozir hamma AI modellar aksariyati neyron tarmoqlariga asoslangan arxitekturalar ustiga qurilgan. Ko'proq ma'lumot bersangiz, kuchliroq ishlaydi. Lekin, 1990-2010 yillar orasida neyron tarmoqlari boshqa Machine Learning (ML) algoritmlaridan yaxshiroq emas edi 🤧, masalan kernel regression, SVM, AdaBoost, va hokazo. Xususan, CV uchun olimlar ko'pincha qo'lda features tayyorlashar edi: SIFT, SURF, HoG va shunga o'xshash. Feature'larni to'g'ridan to'g'ri avtomatik ravishda ma'lumotdan o'rganish g'oyasi uncha tadqiqotchilar jamiyati orasida keng tarqalmagan edi.

2011-yilda Geoffrey Hinton (menimcha kimligini yaxshi bilsangiz kerak) o'z hamkasblariga shunday murojat bilan chiqdi: "Sizlarni neyron tarmoqlari kelajak ekaniga ishontirishim uchun nima qilishim kerak". Shunda uning tanishlaridan biri ImageNet deb nomlangan rasmlar to'plamini tavsiya qiladi.

📸 ImageNet Stanford Professori Fei-Fei Li boshchiligida 2007-yildan boshlab 14 mln'dan ortiq rasm yig'ib kelar edi, va 22 mingta kategoriyalarga tartiblagan, va bu dataset neyron tarmoqga asoslangan CV modellarni o'rgatishga juda zo'r massiv dataset bo'lgan.

Ilya Sutskever (OpenAI asoschilaridan biri) va Alex Krijevskiy (AlexNet'ning muallifi) Geoffrey Hinton qo'l ostida PhD studentlar bo'lib o'qishar edi. Krijevskiy kichik modellarni CIFAR-10 dataset'ida o'qitish uchun cuda-convnet kutubhonasini yozgan edi. Sutskever Alex'ning GPU programming bo'yicha kuchliligini bilib, uni ImageNet yourdamida kattaroq model o'qitishga ishontiradi. Shunday qilib, Krijevskiy ko'p GPU mashg'ulotlari uchun `cuda-convnet`-ni kengaytiradi. AlexNet 2 ta Nvidia GTX 580 da o'zining ota-onasining uyidagi yotoqxonasida o'qitilgan.

2012 yil davomida Krijevskiy tarmoqda giperparametrlarni optimallashtirishni amalga oshiradi, va u o'sha yilning oxirida ImageNet tanlovida g'olib chiqadi. Hinton shunday izoh beradi: "Ilya biz buni qilishimiz kerak deb o'yladi, Alex buni amalga oshirdi va men Nobel mukofotini oldim".😊

2012-yilda CV bo'yicha ECCV konferentsiyasida AlexNet g'alabasidan so'ng tadqiqotchi Yann LeKun modelni “bu CV tarixidagi aniq burilish nuqtasi” deb ta'riflaydi.🤩

AlexNetning 2012-yildagi muvaffaqiyati oldingi o'n yil ichida yetuk bo'lgan uchta narsani birlashgani bilan amalga oshdi:
1. Katta miqyosdagi ma'lumotlar to'plamlari
2. Umumiy maqsadli GPU hisoblashlari (GPGPU), ya'ni Nvidia CUDA tehnologiyasi.
3. Chuqur neyron tarmoqlar uchun takomillashtirilgan o'qitish usullari.

O'n yildan ko'proq vaqt o'tgach, uning ahamiyati haqida fikr yuritar ekan, Fei-Fei Li 2024-yildagi intervyusida shunday deydi: "O'sha lahza sun'iy intellekt dunyosi uchun juda ramziy edi, chunki zamonaviy AI'ning uchta asosiy elementi birinchi marta birlashgan". 🥳

@kilich_bek_blog
Please open Telegram to view this post
VIEW IN TELEGRAM



tg-me.com/Conordevs_Blogs/330
Create:
Last Update:

🤖 AlexNet: butun AI tarixini o'zgartirgan model

Avvalgi postlarimdan birida ResNet haqida gaplashgandik: bu neyron tarmoqlarni chuqurroq qilishga yordam beradigan usul edi. Bugun esa AI tarixida Computer Vision (CV) yo'nalishida revolyutsiya qilgan model haqida gaplashamiz, ya'ni AlexNet haqida.

Hozir hamma AI modellar aksariyati neyron tarmoqlariga asoslangan arxitekturalar ustiga qurilgan. Ko'proq ma'lumot bersangiz, kuchliroq ishlaydi. Lekin, 1990-2010 yillar orasida neyron tarmoqlari boshqa Machine Learning (ML) algoritmlaridan yaxshiroq emas edi 🤧, masalan kernel regression, SVM, AdaBoost, va hokazo. Xususan, CV uchun olimlar ko'pincha qo'lda features tayyorlashar edi: SIFT, SURF, HoG va shunga o'xshash. Feature'larni to'g'ridan to'g'ri avtomatik ravishda ma'lumotdan o'rganish g'oyasi uncha tadqiqotchilar jamiyati orasida keng tarqalmagan edi.

2011-yilda Geoffrey Hinton (menimcha kimligini yaxshi bilsangiz kerak) o'z hamkasblariga shunday murojat bilan chiqdi: "Sizlarni neyron tarmoqlari kelajak ekaniga ishontirishim uchun nima qilishim kerak". Shunda uning tanishlaridan biri ImageNet deb nomlangan rasmlar to'plamini tavsiya qiladi.

📸 ImageNet Stanford Professori Fei-Fei Li boshchiligida 2007-yildan boshlab 14 mln'dan ortiq rasm yig'ib kelar edi, va 22 mingta kategoriyalarga tartiblagan, va bu dataset neyron tarmoqga asoslangan CV modellarni o'rgatishga juda zo'r massiv dataset bo'lgan.

Ilya Sutskever (OpenAI asoschilaridan biri) va Alex Krijevskiy (AlexNet'ning muallifi) Geoffrey Hinton qo'l ostida PhD studentlar bo'lib o'qishar edi. Krijevskiy kichik modellarni CIFAR-10 dataset'ida o'qitish uchun cuda-convnet kutubhonasini yozgan edi. Sutskever Alex'ning GPU programming bo'yicha kuchliligini bilib, uni ImageNet yourdamida kattaroq model o'qitishga ishontiradi. Shunday qilib, Krijevskiy ko'p GPU mashg'ulotlari uchun `cuda-convnet`-ni kengaytiradi. AlexNet 2 ta Nvidia GTX 580 da o'zining ota-onasining uyidagi yotoqxonasida o'qitilgan.

2012 yil davomida Krijevskiy tarmoqda giperparametrlarni optimallashtirishni amalga oshiradi, va u o'sha yilning oxirida ImageNet tanlovida g'olib chiqadi. Hinton shunday izoh beradi: "Ilya biz buni qilishimiz kerak deb o'yladi, Alex buni amalga oshirdi va men Nobel mukofotini oldim".😊

2012-yilda CV bo'yicha ECCV konferentsiyasida AlexNet g'alabasidan so'ng tadqiqotchi Yann LeKun modelni “bu CV tarixidagi aniq burilish nuqtasi” deb ta'riflaydi.🤩

AlexNetning 2012-yildagi muvaffaqiyati oldingi o'n yil ichida yetuk bo'lgan uchta narsani birlashgani bilan amalga oshdi:
1. Katta miqyosdagi ma'lumotlar to'plamlari
2. Umumiy maqsadli GPU hisoblashlari (GPGPU), ya'ni Nvidia CUDA tehnologiyasi.
3. Chuqur neyron tarmoqlar uchun takomillashtirilgan o'qitish usullari.

O'n yildan ko'proq vaqt o'tgach, uning ahamiyati haqida fikr yuritar ekan, Fei-Fei Li 2024-yildagi intervyusida shunday deydi: "O'sha lahza sun'iy intellekt dunyosi uchun juda ramziy edi, chunki zamonaviy AI'ning uchta asosiy elementi birinchi marta birlashgan". 🥳

@kilich_bek_blog

BY Conor's Blogs







Share with your friend now:
tg-me.com/Conordevs_Blogs/330

View MORE
Open in Telegram


Conor& 39;s Blogs Telegram | DID YOU KNOW?

Date: |

Why Telegram?

Telegram has no known backdoors and, even though it is come in for criticism for using proprietary encryption methods instead of open-source ones, those have yet to be compromised. While no messaging app can guarantee a 100% impermeable defense against determined attackers, Telegram is vulnerabilities are few and either theoretical or based on spoof files fooling users into actively enabling an attack.

The lead from Wall Street offers little clarity as the major averages opened lower on Friday and then bounced back and forth across the unchanged line, finally finishing mixed and little changed.The Dow added 33.18 points or 0.10 percent to finish at 34,798.00, while the NASDAQ eased 4.54 points or 0.03 percent to close at 15,047.70 and the S&P 500 rose 6.50 points or 0.15 percent to end at 4,455.48. For the week, the Dow rose 0.6 percent, the NASDAQ added 0.1 percent and the S&P gained 0.5 percent.The lackluster performance on Wall Street came on uncertainty about the outlook for the markets following recent volatility.

Conor& 39;s Blogs from es


Telegram Conor's Blogs
FROM USA